今天是第二天來介紹CNN,鐵人挑戰也來到第四天!
今天要介紹的是激活函數(Activation Function)
激活函數是引入非線性的關鍵,可以讓模型學習複雜的特徵和模式。
CNN中最常用的激活函數是 ReLU(Rectified Linear Unit),其作用不難:
把輸入值中的負數變為0,然後正數保持不變。這個過程引入了非線性,也可以加速模型的訓練,並減少梯度消失的問題。另外,還有其他的激活函數,像是Leaky ReLU、Sigmoid和Tanh,不同的激活函數適用在不同的任務和情況。
激活函數的選擇:
隱藏層:ReLU、Leaky ReLU、PReLU、ELU 和 Swish這幾個是常見的選擇。ReLU 是最常用的,因為它計算簡單且可以減少梯度消失的問題。
輸出層:二元分類問題通常使用 Sigmoid,多分類問題就會使用 Softmax,回歸問題則可以使用線性激活(即無激活函數)。
每個激活函數都有他們適用的場景和限制,選擇時我們要考慮問題的類型、數據的特性和模型的結構!